圖/本報資料庫
AI
2 hours ago

#AI
#聊天機器人
#醫療資訊
#錯誤資訊
#健康風險
圖/本報資料庫
圖/本報資料庫
商傳媒|康語柔/綜合外電報導
摘要

一項最新研究指出,目前市面上常用的人工智慧聊天機器人,約有半數的醫學相關回覆可能誤導使用者,甚至導致無效或有害的醫療選擇,凸顯專業諮詢的重要性。

一項最新研究揭示,目前市面上常用的人工智慧(AI)聊天機器人,約有半數的醫療相關回覆可能對使用者造成誤導,甚至導致無效或有害的醫療決策。這項由美國倫奎斯特研究所(Lundquist Institute)研究員Nicholas Tiller博士及其團隊發表的研究,強調了在尋求醫療建議時,專業指導的不可或缺性。

研究團隊在2024年針對五款常見的免費網路版AI聊天機器人進行測試,包括Google旗下的Gemini、DeepSeek、Meta AI、ChatGPT 3.5以及Grok。他們設計了50個情境提示,模擬公眾查詢癌症、疫苗、幹細胞、營養及運動表現等健康議題,共收集了250份回覆。

分析結果顯示,這些AI回覆中有高達五成被評為有問題,其中約三成「部分有問題」,而近兩成(19.6%)則被列為「高度有問題」。研究發現,開放式提問最容易收到具誤導性的答案。在受測模型中,Grok被指出產生「高度有問題」回覆的比例偏高,而Gemini則提供了最少的高度問題回覆與最多的「無問題」回覆。聊天機器人對癌症和疫苗相關問題的準確性較高,但在幹細胞、運動表現和營養方面的表現則較差。

研究指出,即便AI回覆可能具備誤導性,聊天機器人仍普遍以自信且權威的語氣回應,很少拒絕回答或提供明確的警語及免責聲明。倫奎斯特研究所研究員兼首席作者 Nicholas Tiller 博士表示:「儘管有試圖引導至反建議的壓力,聊天機器人通常以自信、權威的語氣回應。拒絕回答或明確的警語很少見,這反映了模型即使在提示引導至禁忌建議時,也強烈傾向於提供輸出。」

此外,AI模型所提供的參考資料清單也常有限或不準確。研究團隊進一步說明,這些AI的答案需要具備一定知識水平才能解讀,內容導向大學程度的用戶。Nicholas Tiller 博士及其同事強調,隨著AI聊天機器人的使用持續擴大,研究數據凸顯了公眾教育、專業培訓及監管措施的必要性,以確保生成式AI能促進而非損害公眾健康。